AI资讯新闻榜单内容搜索-Language M

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Language M
早期项目|硅谷初创公司「Aizip」创建小语言模型Gizmo,应用于边缘市场

早期项目|硅谷初创公司「Aizip」创建小语言模型Gizmo,应用于边缘市场

早期项目|硅谷初创公司「Aizip」创建小语言模型Gizmo,应用于边缘市场

从前两年的百模大战到大语言模型 LLM(Large Language Model)的逐步落地应用,端侧AI始终是人工智能技术发展中至关重要的一环。 所谓的端侧AI,即用户在使用过程中不依赖云服务器,直接在终端设备本地使用AI服务。相比于ChatGPT4.0和最新推出的Llama3.1等依赖于云端接口的主流大语言模型,设备端边缘应用的紧凑模型有较强的私密性,也具有个性化操作和节省成本等诸多优势。

来自主题: AI资讯
8816 点击    2024-08-05 15:45
ECCV 2024 | 提升GPT-4V、Gemini检测任务性能,你需要这种提示范式

ECCV 2024 | 提升GPT-4V、Gemini检测任务性能,你需要这种提示范式

ECCV 2024 | 提升GPT-4V、Gemini检测任务性能,你需要这种提示范式

多模态大模型(Multimodal Large Language Models,MLLMs)在不同的任务中表现出了令人印象深刻的能力,尽管如此,这些模型在检测任务中的潜力仍被低估。

来自主题: AI技术研报
11254 点击    2024-07-22 14:58
ACL 2024论文盖棺定论:大语言模型≠世界模拟器,Yann LeCun:太对了

ACL 2024论文盖棺定论:大语言模型≠世界模拟器,Yann LeCun:太对了

ACL 2024论文盖棺定论:大语言模型≠世界模拟器,Yann LeCun:太对了

最近两天,一篇入选 ACL 2024 的论文《Can Language Models Serve as Text-Based World Simulators?》在社交媒体 X 上引发了热议,就连图灵奖得主 Yann LeCun 也参与了进来。

来自主题: AI技术研报
9845 点击    2024-06-16 18:07
「连续数值分布式表征」加持,浙大UIUC让语言模型擅长表格预测 | ICLR 2024 Spotlight

「连续数值分布式表征」加持,浙大UIUC让语言模型擅长表格预测 | ICLR 2024 Spotlight

「连续数值分布式表征」加持,浙大UIUC让语言模型擅长表格预测 | ICLR 2024 Spotlight

来自浙江大学和伊利诺伊大学厄巴纳-香槟分校的研究者发表了他们关于「表格语言模型」(Tabular Language Model)的研究成果

来自主题: AI技术研报
9461 点击    2024-06-15 16:23
万字综述大模型高效推理:无问芯穹与清华、上交最新联合研究全面解析大模型推理优化

万字综述大模型高效推理:无问芯穹与清华、上交最新联合研究全面解析大模型推理优化

万字综述大模型高效推理:无问芯穹与清华、上交最新联合研究全面解析大模型推理优化

近年来,大语言模型(Large Language Models, LLMs)受到学术界和工业界的广泛关注,得益于其在各种语言生成任务上的出色表现,大语言模型推动了各种人工智能应用(例如ChatGPT、Copilot等)的发展。然而,大语言模型的落地应用受到其较大的推理开销的限制,对部署资源、用户体验、经济成本都带来了巨大挑战。

来自主题: AI技术研报
10712 点击    2024-06-14 10:35
AI信任危机之后,揭秘预训练如何塑造机器的「可信灵魂」

AI信任危机之后,揭秘预训练如何塑造机器的「可信灵魂」

AI信任危机之后,揭秘预训练如何塑造机器的「可信灵魂」

在人工智能的前沿领域,大语言模型(Large Language Models,LLMs)由于其强大的能力正吸引着全球研究者的目光。在 LLMs 的研发流程中,预训练阶段占据着举足轻重的地位,它不仅消耗了大量的计算资源,还蕴含着许多尚未揭示的秘密。

来自主题: AI技术研报
8132 点击    2024-04-25 17:22
去年爆火的大模型综述,如今出书了(免费获取见文末)

去年爆火的大模型综述,如今出书了(免费获取见文末)

去年爆火的大模型综述,如今出书了(免费获取见文末)

相信很多朋友都看过这篇论文,在 2023 年 3 月,一支来自加拿大滑铁卢大学、清华大学和新加坡管理大学的团队,发表了一篇大模型综述《A Survey of Large Language Models》.

来自主题: AI资讯
8150 点击    2024-04-20 10:31
如何从头开始编写LoRA代码,这有一份教程

如何从头开始编写LoRA代码,这有一份教程

如何从头开始编写LoRA代码,这有一份教程

作者表示:在各种有效的 LLM 微调方法中,LoRA 仍然是他的首选。LoRA(Low-Rank Adaptation)作为一种用于微调 LLM(大语言模型)的流行技术,最初由来自微软的研究人员在论文《 LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS 》中提出。

来自主题: AI技术研报
7598 点击    2024-03-20 16:16